Air Canada reconnu responsable des hallucinations de son chatbot


Les entreprises qui intègrent à tort et à travers des chatbots pour renseigner leurs clients y réfléchiront peut-être à deux fois, après la déconfiture d’Air Canada devant les tribunaux.

En mars 2023, Air Canada inaugurait sur son site web un nouveau chatbot carburant à l’intelligence artificielle, dont le boulot était de soulager les centres d’appels de l’entreprise lors d’un retard ou de l’annulation d’un vol. Les passagers pouvaient par exemple lui demander si un siège était disponible dans tel vol. Qualifié d’« expérimentation » par la compagnie aérienne, ce bot a gagné en capacité pour répondre à des demandes plus complexes au fil du temps.

Le fiasco du bot

Mais visiblement, le robot n’était pas taillé pour répondre correctement à la demande de Jake Moffatt, qui suite au décès de sa grand mère, lui a demandé des informations sur les tarifs pour urgence familiale. Air Canada propose en effet à ceux qui doivent voyager en raison du décès d’un membre de la famille immédiate, de payer moins cher un billet d’avion.

Le bot s’est emmêlé les pinceaux en lui recommandant de réserver immédiatement un billet, puis d’en demander le remboursement dans les 90 jours. La procédure est en fait bien différente, il faut au préalable contacter la compagnie pour expliquer la situation ; surtout, Air Canada précise bien sur son site web qu’aucun remboursement ne sera versé lorsque la demande de prise en charge est effectuée après le voyage.

Bref, le bot avait tout faux. Mais l’infortuné voyageur a suivi ces conseils et il s’est bien sûr heurté à une fin de non recevoir lorsqu’il a tenté de demander le remboursement de son billet, malgré une capture d’écran prouvant sa bonne foi. D’après Air Canada, la réponse du bot renvoyait vers la fameuse page web des tarifs d’urgence familiale ; le client aurait donc dû en prendre connaissance, ce qui lui aurait permis de comprendre que les demandes de prise en charge ne peuvent être faite rétroactivement.

Air Canada « pas responsable » de son propre chatbot

En guise de réparation, Air Canada a proposé un coupon de 200 $ à utiliser sur un prochain vol. Mais Jake Moffatt ne l’a pas entendu de cette oreille et a porté plainte devant le Tribunal de résolution civile de Colombie Britannique. D’après la défense de l’entreprise, le plaignant n’aurait jamais dû faire confiance au bot, considéré comme une « entité légale » séparée de la compagnie aérienne. Par conséquent, Air Canada n’était pas responsable des actions du bot…

Une défense qualifiée de « remarquable » par le tribunal, dont la décision a été publiée par le Vancouver Sun. La compagnie soutient en effet qu’elle ne peut être tenue responsable des informations fournies par ses agents, ses employés ou ses représentants, dont le chatbot fait partie. Dans ce cas, la page web consacrée aux tarifs d’urgence familiale est-elle réellement plus fiable que le bot ? La responsabilité de vérifier plusieurs fois une information donnée par Air Canada revient-elle au client ?

Le tribunal a donné raison au voyageur : il peut exiger un remboursement partiel de son billet (un peu plus d’un tiers du prix total), ainsi que des dommages-intérêts supplémentaires pour couvrir les frais de justice. Air Canada va respecter le jugement et en rester là. Quant au bot, il a été débranché et rien ne dit qu’il reviendra un jour prochain !

? Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : ArsTechnica



Source
Catégorie article Audio

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.